🤔 Почему моя модель машинного обучения резко теряет точность после выхода в продакшн, хотя на тестах всё было отлично
Потому что модель обучалась на «чистом» датасете, а в продакшне сталкивается с реальными, грязными и непредсказуемыми данными.
🧩Типовые причины падения качества:
1. Искажения входных признаков — Например, в одном из полей вместо десятичного значения приходит строка или ноль. Модель не понимает контекст и делает ошибочный прогноз.
2.Отсутствие валидации на этапе inference — Если данные не проходят базовую проверку перед подачей в модель, она работает на мусоре. А мусор на входе = мусор на выходе (GIGO).
3. Появление новых распределений (data drift) — В продакшн приходят значения, которых в трейне не было. Модель не обучалась на таких случаях и путается.
4. Неверная предобработка в проде — Самая частая причина: трансформации признаков в проде не совпадают с тем, как они делались в трейне. Всё — от разного кодирования категорий до забытых скейлеров.
🛠Как защититься
➡️ Внедрить валидацию входных данных (тип, диапазон, формат). ➡️ Использовать инвариантные признаки, устойчивые к мелким искажениям. ➡️ Настроить мониторинг данных на inference, чтобы ловить отклонения от трейна. ➡️ Автоматизировать регулярное переобучение с учётом новых поступающих данных. ➡️ Обеспечить идентичность пайплайнов: то, что в трейне — то и в проде.
🤔 Почему моя модель машинного обучения резко теряет точность после выхода в продакшн, хотя на тестах всё было отлично
Потому что модель обучалась на «чистом» датасете, а в продакшне сталкивается с реальными, грязными и непредсказуемыми данными.
🧩Типовые причины падения качества:
1. Искажения входных признаков — Например, в одном из полей вместо десятичного значения приходит строка или ноль. Модель не понимает контекст и делает ошибочный прогноз.
2.Отсутствие валидации на этапе inference — Если данные не проходят базовую проверку перед подачей в модель, она работает на мусоре. А мусор на входе = мусор на выходе (GIGO).
3. Появление новых распределений (data drift) — В продакшн приходят значения, которых в трейне не было. Модель не обучалась на таких случаях и путается.
4. Неверная предобработка в проде — Самая частая причина: трансформации признаков в проде не совпадают с тем, как они делались в трейне. Всё — от разного кодирования категорий до забытых скейлеров.
🛠Как защититься
➡️ Внедрить валидацию входных данных (тип, диапазон, формат). ➡️ Использовать инвариантные признаки, устойчивые к мелким искажениям. ➡️ Настроить мониторинг данных на inference, чтобы ловить отклонения от трейна. ➡️ Автоматизировать регулярное переобучение с учётом новых поступающих данных. ➡️ Обеспечить идентичность пайплайнов: то, что в трейне — то и в проде.
That strategy is the acquisition of a value-priced company by a growth company. Using the growth company's higher-priced stock for the acquisition can produce outsized revenue and earnings growth. Even better is the use of cash, particularly in a growth period when financial aggressiveness is accepted and even positively viewed.he key public rationale behind this strategy is synergy - the 1+1=3 view. In many cases, synergy does occur and is valuable. However, in other cases, particularly as the strategy gains popularity, it doesn't. Joining two different organizations, workforces and cultures is a challenge. Simply putting two separate organizations together necessarily creates disruptions and conflicts that can undermine both operations.
At a time when the Indian stock market is peaking and has rallied immensely compared to global markets, there are companies that have not performed in the last 10 years. These are definitely a minor portion of the market considering there are hundreds of stocks that have turned multibagger since 2020. What went wrong with these stocks? Reasons vary from corporate governance, sectoral weakness, company specific and so on. But the more important question is, are these stocks worth buying?
Библиотека собеса по Data Science | вопросы с собеседований from tr